AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
喂饭!RAG for LLM: A Survey论文导读

喂饭!RAG for LLM: A Survey论文导读

喂饭!RAG for LLM: A Survey论文导读

RAG没有想象中那么容易。相信这也是你会看到这篇文章的原因。

来自主题: AI资讯
9936 点击    2023-12-24 12:11
大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大语言模型(LLM)被越来越多应用于各种领域。然而,它们的文本生成过程既昂贵又缓慢。这种低效率归因于自回归解码的运算规则:每个词(token)的生成都需要进行一次前向传播,需要访问数十亿至数千亿参数的 LLM。这导致传统自回归解码的速度较慢。

来自主题: AI资讯
5690 点击    2023-12-15 11:37
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。

来自主题: AI资讯
7116 点击    2023-12-13 15:35
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。

来自主题: AI资讯
5931 点击    2023-12-06 15:17
BPO:灵活的 Prompt 对齐优化技术

BPO:灵活的 Prompt 对齐优化技术

BPO:灵活的 Prompt 对齐优化技术

并非所有人都熟知如何与 LLM 进行高效交流。 一种方案是,人向模型对齐。于是有了 「Prompt工程师」这一岗位,专门撰写适配 LLM 的 Prompt,从而让模型能够更好地生成内容。

来自主题: AI资讯
5164 点击    2023-11-20 14:00
AI「cosplay」关键在人设!复旦、人大等发布大五人格+MBTI测试:特质还原率达82.8%,拒绝OOC

AI「cosplay」关键在人设!复旦、人大等发布大五人格+MBTI测试:特质还原率达82.8%,拒绝OOC

AI「cosplay」关键在人设!复旦、人大等发布大五人格+MBTI测试:特质还原率达82.8%,拒绝OOC

良好的人设还原度是AI角色扮演的关键,研究人员对大五人格的NEO-FFI问卷和MBTI的16Personalities进行了改写,利用LLM将其中的问题从陈述句改写为了引导开放式问答的提问句,对AI角色进行测试。

来自主题: AI技术研报
5036 点击    2023-11-20 11:50
AI大语言模型LLM,为啥老被翻译成“法学硕士”?

AI大语言模型LLM,为啥老被翻译成“法学硕士”?

AI大语言模型LLM,为啥老被翻译成“法学硕士”?

LLM这个缩写在机器翻译中被误解为“法学硕士”,而不是“大语言模型”。 • 机器翻译系统通常依赖上下文和大量文本数据来学习翻译,导致LLM更容易被翻译成“法学硕士”。

来自主题: AI资讯
1636 点击    2023-11-06 09:58
Zilliz X Dify.AI,快速打造知识库AI应用

Zilliz X Dify.AI,快速打造知识库AI应用

Zilliz X Dify.AI,快速打造知识库AI应用

Zilliz和 Dify.AI 达成合作,Zilliz 旗下的产品 Zilliz Cloud、Milvus 与开源 LLMOps 平台 Dify 社区版进行了深度集成。

来自主题: AI技术研报
9029 点击    2023-10-17 14:13